我们在佩恩 - 赫尔辛基解析的早期现代英语(PPCEME)中的第一个解析结果,是一个190万字的TreeBank,这是句法变化研究的重要资源。我们描述了PPCEME的关键特征,使其成为解析的挑战,包括比Penn TreeBank中更大且更多样化的功能标签。我们使用伯克利神经解析器的修改版本为此语料库提出了结果,以及Gabbard等人的功能标签恢复的方法(2006)。尽管其简单性,这种方法令人惊讶地令人惊讶地令人惊讶的是,建议可以以足够的准确度恢复原始结构,以支持语言应用(例如,寻找涉及的句法结构)。然而,对于函数标签的子集(例如,指示直接演讲的标签),需要额外的工作,我们讨论了这种方法的一些进一步限制。由此产生的解析器将用于在网上解析早期英语书籍,一个11亿字形的语料库,其实用性对于句法变化的效用将大大增加,加入准确的解析树。
translated by 谷歌翻译
Heteroscedastic regression models a Gaussian variable's mean and variance as a function of covariates. Parametric methods that employ neural networks for these parameter maps can capture complex relationships in the data. Yet, optimizing network parameters via log likelihood gradients can yield suboptimal mean and uncalibrated variance estimates. Current solutions side-step this optimization problem with surrogate objectives or Bayesian treatments. Instead, we make two simple modifications to optimization. Notably, their combination produces a heteroscedastic model with mean estimates that are provably as accurate as those from its homoscedastic counterpart (i.e.~fitting the mean under squared error loss). For a wide variety of network and task complexities, we find that mean estimates from existing heteroscedastic solutions can be significantly less accurate than those from an equivalently expressive mean-only model. Our approach provably retains the accuracy of an equally flexible mean-only model while also offering best-in-class variance calibration. Lastly, we show how to leverage our method to recover the underlying heteroscedastic noise variance.
translated by 谷歌翻译
复杂的多目标任务需要在多个相互连接的级别(例如联盟形成,调度和运动计划)上协调异质机器人。动态变化(例如传感器和执行器故障,通信损失和意外延迟)加剧了这一挑战。我们将动态迭代任务分配图搜索(D-ITAGS)介绍到\ textit {同时}地址在涉及异构团队的动态设置中,地址为联盟组建,调度和运动计划。 D-Itag通过两个关键特征实现弹性:i)交错执行,ii)有针对性的维修。 \ textIt {交错执行}可以在每一层进行有效搜索解决方案,同时避免与其他层不兼容。 \ textIt {目标修复}识别并修复了现有解决方案的一部分,该解决方案在保存其余部分的同时受到给定破坏的影响。除了算法贡献外,我们还提供理论上的见解,以了解这些设置中时间和资源最优性之间固有的权衡,并在计划次级临时性上得出有意义的界限。我们的实验表明,在动态设置中,i)d-itag的速度明显比从头开始的重新计算要快得多,而溶液质量几乎没有损失,ii)理论次优界在实践中始终保持。
translated by 谷歌翻译
因果贝叶斯网络提供了重要的工具,用于在不确定性下进行推理,并可能应用于许多复杂的因果系统。结构学习算法可以告诉我们一些有关这些系统的因果结构的信息,越来越重要。在文献中,这些算法的有效性通常经过对不同样本量,超参数以及偶尔客观函数的敏感性进行测试。在本文中,我们表明,从数据中读取变量的顺序可能比这些因素对算法的准确性产生更大的影响。由于变量排序是任意的,因此它对学习图的准确性的任何重大影响都与之有关,这引发了有关算法对敏感但未对不同可变订单敏感但尚未评估的算法产生的结果的有效性的问题。
translated by 谷歌翻译
在贝叶斯网络(BNS)中,边缘方向对于因果推理和推理至关重要。然而,马尔可夫等价类考虑因素意味着它并不总是可以建立边缘方向,这就是许多BN结构学习算法不能从纯粹观察数据定向所有边缘的原因。此外,潜在的混乱会导致假阳性边缘。已经提出了相对较少的方法来解决这些问题。在这项工作中,我们介绍了从涉及观察数据集的离散数据和一个或多个介入数据集的离散数据的结构学习的混合MFGS-BS(Meance规则和快速贪婪等价搜索)算法。该算法假设存在潜在变量的因果不足,并产生部分祖先图形(PAG)。结构学习依赖于混合方法和新的贝叶斯评分范式,用于计算添加到学习图表的每个定向边缘的后验概率。基于众所周知的网络的实验结果高达109个变量和10K样本大小表明,MFGS-BS相对于最先进的结构提高了结构学习准确性,并且它是计算效率的。
translated by 谷歌翻译
学习具有基于刻痕的解决方案的贝叶斯网络(BN)的结构涉及探索可能的图表的搜索空间并朝向最大化给定目标函数的图形移动。一些算法提供了确切的解决方案,可以保证以最高目标分数返回图形,而其他算法则提供近似解决方案以换取降低的计算复杂性。本文介绍了一种近似的BN结构学习算法,我们呼叫平均爬山(MAHC)的模型,相结合了两种与爬山搜索的新策略。该算法通过修剪图的搜索空间来开始,其中修剪策略可以被视为通常应用于组合优化结构学习问题的修剪策略的激进版本。然后,它在爬山搜索过程中执行模型平均值,并移动到相邻图,该曲线图平均为该相邻图和在所有有效的相邻图中最大化目标函数。与跨越不同学习类别的其他算法的比较表明,模型平均的攻击性修剪的组合既有效又有效,特别是在存在数据噪声。
translated by 谷歌翻译
由于现实世界图形/网络数据中的广泛标签稀缺问题,因此,自我监督的图形神经网络(GNN)非常需要。曲线图对比度学习(GCL),通过训练GNN以其不同的增强形式最大化相同图表之间的表示之间的对应关系,即使在不使用标签的情况下也可以产生稳健和可转移的GNN。然而,GNN由传统的GCL培训经常冒险捕获冗余图形特征,因此可能是脆弱的,并在下游任务中提供子对比。在这里,我们提出了一种新的原理,称为普通的普通GCL(AD-GCL),其使GNN能够通过优化GCL中使用的对抗性图形增强策略来避免在训练期间捕获冗余信息。我们将AD-GCL与理论解释和设计基于可训练的边缘滴加图的实际实例化。我们通过与最先进的GCL方法进行了实验验证了AD-GCL,并在无监督,6 \%$ 14 \%$ 6 \%$ 14 \%$ 6 \%$ 6 \%$ 3 \%$ 3 \%$达到半监督总体学习设置,具有18个不同的基准数据集,用于分子属性回归和分类和社交网络分类。
translated by 谷歌翻译